Loading...
机构名称:
¥ 1.0

摘要我们介绍了一种称为探测链链(Procot)的新颖写作方法,该方法有可能阻止学生使用大语言模型(LLM)(例如ChatGpt)作弊,同时增强他们的积极学习。llms已经解散了教育和许多其他领域。担心学生作弊,许多人诉诸于禁止使用他们的使用。这些LLM也以幻觉而闻名。我们在两个不同的课程中与65名学生一起在Procot进行研究。要求每门课程中的学生提示他们选择的LLM,其中一个问题是从四个组中提出的一个问题,并需要使用PEER-REVIEWEDERED参考文献确认或驳斥LLM输出中的语句。结果显示了两件事:(1)Procot在我们将仅限LLM的输出与Procot输出进行比较时,通过与LLMS的互动来刺激学生的批判性/批判性思维,并通过与Procot输出进行比较,并且(2)当我们将Procot Procot Outper与LLM Prococot的cathgs进行比较时,Procot可以防止procot的作弊,尤其是在现有的LLMS(尤其是)中限制。我们还发现,大多数学生都喜欢用比LLM少的单词给出答案,而LLM通常是冗长的。第一门课程,chatgpt(v3.5)和phind(v8)中的学生的平均单词计数分别为208、391和383。

arxiv:2312.09801v2 [CS.CL] 2024年5月1日

arxiv:2312.09801v2 [CS.CL] 2024年5月1日PDF文件第1页

arxiv:2312.09801v2 [CS.CL] 2024年5月1日PDF文件第2页

arxiv:2312.09801v2 [CS.CL] 2024年5月1日PDF文件第3页

arxiv:2312.09801v2 [CS.CL] 2024年5月1日PDF文件第4页

arxiv:2312.09801v2 [CS.CL] 2024年5月1日PDF文件第5页

相关文件推荐

2024 年
¥1.0